Logo

Tìm kiếm: LLM

Trí tuệ nhân tạo tạo nên xã hội thu nhỏ trong Minecraft: 1000
Trí tuệ nhân tạo tạo nên xã hội thu nhỏ trong Minecraft: 1000 "người chơi" AI mô phỏng hành vi con người!

Công ty khởi nghiệp AI Altera vừa gây chấn động giới công nghệ với "Project SID" - một thử nghiệm ấn tượng: xây dựng một xã hội thu nhỏ gồm 1000 "người chơi" AI trong thế giới Minecraft! Những AI này không chỉ tương tác với môi trường mà còn tự động hình thành các vai trò xã hội như nông dân, thương nhân, lính canh, nghệ sĩ, thậm chí cả đầu bếp và nhà hoạt động môi trường!

Tác giả: Tuấn Anh Tuấn Anh
563
Trung Quốc tái chế card đồ họa RTX 3090 thành AI Accelerator để vượt qua lệnh cấm của Mỹ
Trung Quốc tái chế card đồ họa RTX 3090 thành AI Accelerator để vượt qua lệnh cấm của Mỹ

Gần đây, các nhà máy Trung Quốc đã tháo rời card đồ họa GeForce RTX 4090 bị cấm để biến chúng thành AI Accelerator. Giờ đây, các card RTX 3090 thế hệ trước cũng đang bị nhắm tới. Giống như GPU từng là hàng hóa nóng nhất trong thời kỳ bùng nổ tiền điện tử, GPU Nvidia cao cấp với phần cứng AI nhanh và nhiều bộ nhớ đã trở thành lựa chọn lý tưởng cho khối lượng công việc AI, ngay cả khi Hoa Kỳ siết chặt xuất khẩu sang Trung Quốc.

Tác giả: Linh Hương Linh Hương
3063
Grok: Trí tuệ nhân tạo đột phá của XAI vượt trội hơn cả ChatGPT-3.5 và Claude 2
Grok: Trí tuệ nhân tạo đột phá của XAI vượt trội hơn cả ChatGPT-3.5 và Claude 2

Grok, mô hình ngôn ngữ lớn (LLM) mới được phát triển bởi XAI, đã chứng tỏ khả năng vượt trội hơn cả các đối thủ nặng ký như ChatGPT-3.5 và Claude 2 trong một thử nghiệm toán học gần đây. Theo kết quả đánh giá, Grok đã đạt được điểm số 59%, đứng thứ hai trong số các LLM được thử nghiệm, chỉ sau GPT-4 của OpenAI với điểm số 68%.

Tác giả: Thùy Linh Thùy Linh
2844
OpenAI ra mắt GPT-4 Turbo: Khả năng xử lý ngôn ngữ đột phá với bối cảnh mở rộng và kiến thức mới nhất
OpenAI ra mắt GPT-4 Turbo: Khả năng xử lý ngôn ngữ đột phá với bối cảnh mở rộng và kiến thức mới nhất

OpenAI vừa công bố bản cập nhật đột phá nhất cho ChatGPT tại hội nghị dành cho nhà phát triển đầu tiên của mình. Công ty đã giới thiệu những cải tiến đáng kể cho mô hình ngôn ngữ lớn GPT-4 Turbo. Bản cập nhật mới nhất mở rộng khả năng của GPT-4 với bối cảnh mở rộng và cơ sở dữ liệu kiến thức được cập nhật.

Tác giả: Hương Trang Hương Trang
3149
Elon Musk ra mắt Grok, mô hình tạo văn bản AI mới
Elon Musk ra mắt Grok, mô hình tạo văn bản AI mới

Công ty của Elon Musk, xAI, đã chính thức ra mắt mô hình tạo văn bản AI mới mang tên Grok. Được mệnh danh là đối thủ của ChatGPT phổ biến, Grok được thiết kế để trở thành một mô hình ngôn ngữ mạnh mẽ và linh hoạt hơn.

Tác giả: Phương Linh Phương Linh
2705
Nvidia ra mắt ChipNeMo, một mô hình ngôn ngữ lớn chuyên biệt với 43 tỷ tham số nhằm tăng cường năng suất thiết kế chip
Nvidia ra mắt ChipNeMo, một mô hình ngôn ngữ lớn chuyên biệt với 43 tỷ tham số nhằm tăng cường năng suất thiết kế chip

Nvidia đã ra mắt ChipNeMo, một mô hình ngôn ngữ lớn chuyên biệt với 43 tỷ tham số nhằm tăng cường năng suất thiết kế chip. Công cụ này hứa hẹn sẽ đơn giản hóa nhiều khía cạnh của thiết kế chip bằng cách trả lời các câu hỏi, tóm tắt các báo cáo lỗi và tạo ra các tập lệnh cho các công cụ thiết kế điện tử tự động (EDA).

Tác giả: Minh Quân Minh Quân
2584
Công cụ TensorRT của NVIDIA tăng hiệu suất cho các tác vụ AI như Stable Diffusion và Llama 2
Công cụ TensorRT của NVIDIA tăng hiệu suất cho các tác vụ AI như Stable Diffusion và Llama 2

NVIDIA đã và đang nỗ lực cải tiến bộ công cụ AI/ML (trí tuệ nhân tạo/học máy) và LLM (mô hình ngôn ngữ lớn) của mình. Bổ sung mới nhất là TensorRT và TensorRT-LLM, được thiết kế để tối ưu hóa hiệu suất của GPU tiêu dùng và nhiều card đồ họa tốt nhất để chạy các tác vụ như Stable Diffusion và tạo văn bản Llama 2. Chúng tôi đã thử nghiệm một số GPU mới nhất của NVIDIA bằng TensorRT và nhận thấy hiệu suất trong Stable Diffusion được cải thiện tới 70%. TensorRT hiện có sẵn để tải xuống tại trang GitHub của NVIDIA, mặc dù chúng tôi đã có quyền truy cập sớm cho mục đích của cái nhìn ban đầu này.

Tác giả: Hương Trang Hương Trang
4717
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC

Nvidia đang lên kế hoạch tăng tốc phát triển các kiến trúc GPU mới và quay trở lại chu kỳ giới thiệu sản phẩm một năm một lần để duy trì vị thế dẫn đầu trong lĩnh vực trí tuệ nhân tạo (AI) và phần cứng tính năng cao (HPC).

Tác giả: Mai Ngọc Mai Ngọc
2401
Microsoft nói rằng chip AI của NVIDIA vẫn là lựa chọn tốt nhất, nhưng AMD cũng có những lựa chọn hấp dẫn và nguồn cung tổng thể đang tốt hơn
Microsoft nói rằng chip AI của NVIDIA vẫn là lựa chọn tốt nhất, nhưng AMD cũng có những lựa chọn hấp dẫn và nguồn cung tổng thể đang tốt hơn

Microsoft cho biết chip AI của NVIDIA vẫn là lựa chọn tốt nhất, nhưng AMD cũng có những lựa chọn hấp dẫn và nguồn cung tổng thể đang tốt hơn.

Tác giả: Huy Hoàng Huy Hoàng
2376
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn

Sharon Zhou, CEO của Lamini, một công ty khởi nghiệp về mô hình ngôn ngữ lớn (LLM) trí tuệ nhân tạo (AI), đã đăng một video lên Twitter/X để chế giễu tình trạng thiếu hụt GPU của Nvidia đang diễn ra. Người đứng đầu Lamini hiện đang khá tự mãn, và điều này dường như là do phần lớn các LLM của công ty chạy độc quyền trên kiến trúc GPU AMD có sẵn. Hơn nữa, công ty tuyên bố rằng GPU AMD sử dụng ROCm đã đạt được "sự tương đương về phần mềm" với nền tảng Nvidia CUDA vốn thống trị trước đây.

Tác giả: Huy Hoàng Huy Hoàng
2603
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội

Nvidia hôm nay đã công bố rằng họ đã đệ trình kết quả điểm chuẩn đầu tiên cho Superchip CPU + GPU Grace Hopper và bộ tăng tốc GPU L4 của họ cho phiên bản mới nhất của MLPerf, một điểm chuẩn AI tiêu chuẩn công nghiệp được thiết kế để cung cấp một sân chơi bình đẳng để đo lường hiệu suất AI trong các tác vụ khác nhau.

Tác giả: Huy Hoàng Huy Hoàng
2681
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100

Nvidia cho biết phần mềm mã nguồn mở TensorRT-LL mới của họ có thể tăng hiệu suất đáng kể của các mô hình ngôn ngữ lớn (LLM) trên GPU của họ. Theo công ty, khả năng của TensorRT-LL của Nvidia cho phép họ tăng hiệu suất của GPU H100 của họ lên hai lần trong LLM GPT-J với sáu tỷ tham số. Quan trọng là phần mềm có thể cho phép cải thiện hiệu suất này mà không cần đào tạo lại mô hình.

Tác giả: Huy Hoàng Huy Hoàng
2592
Huawei được cho là có GPU AI ngang tầm với NVIDIA A100 và sẽ có LLM cạnh tranh với GPT-4
Huawei được cho là có GPU AI ngang tầm với NVIDIA A100 và sẽ có LLM cạnh tranh với GPT-4

Tại Diễn đàn Doanh nhân Trung Quốc 2023, Liu Qingfeng, người sáng lập HKUST Xunfei (một công ty AI của Trung Quốc) đã tiết lộ rằng ông đã hợp tác với Huawei để tăng tốc AI.

Tác giả: Huy Hoàng Huy Hoàng
2503
Chọn trang

NewSLiver

[email protected]

Hình ảnh

© newsliver.com. All Rights Reserved.

Tìm kiếm: LLM

Trí tuệ nhân tạo tạo nên xã hội thu nhỏ trong Minecraft: 1000
Trí tuệ nhân tạo tạo nên xã hội thu nhỏ trong Minecraft: 1000 "người chơi" AI mô phỏng hành vi con người!

Công ty khởi nghiệp AI Altera vừa gây chấn động giới công nghệ với "Project SID" - một thử nghiệm ấn tượng: xây dựng một xã hội thu nhỏ gồm 1000 "người chơi" AI trong thế giới Minecraft! Những AI này không chỉ tương tác với môi trường mà còn tự động hình thành các vai trò xã hội như nông dân, thương nhân, lính canh, nghệ sĩ, thậm chí cả đầu bếp và nhà hoạt động môi trường!

Tác giả: Tuấn Anh Tuấn Anh
563
Trung Quốc tái chế card đồ họa RTX 3090 thành AI Accelerator để vượt qua lệnh cấm của Mỹ
Trung Quốc tái chế card đồ họa RTX 3090 thành AI Accelerator để vượt qua lệnh cấm của Mỹ

Gần đây, các nhà máy Trung Quốc đã tháo rời card đồ họa GeForce RTX 4090 bị cấm để biến chúng thành AI Accelerator. Giờ đây, các card RTX 3090 thế hệ trước cũng đang bị nhắm tới. Giống như GPU từng là hàng hóa nóng nhất trong thời kỳ bùng nổ tiền điện tử, GPU Nvidia cao cấp với phần cứng AI nhanh và nhiều bộ nhớ đã trở thành lựa chọn lý tưởng cho khối lượng công việc AI, ngay cả khi Hoa Kỳ siết chặt xuất khẩu sang Trung Quốc.

Tác giả: Linh Hương Linh Hương
3063
Grok: Trí tuệ nhân tạo đột phá của XAI vượt trội hơn cả ChatGPT-3.5 và Claude 2
Grok: Trí tuệ nhân tạo đột phá của XAI vượt trội hơn cả ChatGPT-3.5 và Claude 2

Grok, mô hình ngôn ngữ lớn (LLM) mới được phát triển bởi XAI, đã chứng tỏ khả năng vượt trội hơn cả các đối thủ nặng ký như ChatGPT-3.5 và Claude 2 trong một thử nghiệm toán học gần đây. Theo kết quả đánh giá, Grok đã đạt được điểm số 59%, đứng thứ hai trong số các LLM được thử nghiệm, chỉ sau GPT-4 của OpenAI với điểm số 68%.

Tác giả: Thùy Linh Thùy Linh
2844
OpenAI ra mắt GPT-4 Turbo: Khả năng xử lý ngôn ngữ đột phá với bối cảnh mở rộng và kiến thức mới nhất
OpenAI ra mắt GPT-4 Turbo: Khả năng xử lý ngôn ngữ đột phá với bối cảnh mở rộng và kiến thức mới nhất

OpenAI vừa công bố bản cập nhật đột phá nhất cho ChatGPT tại hội nghị dành cho nhà phát triển đầu tiên của mình. Công ty đã giới thiệu những cải tiến đáng kể cho mô hình ngôn ngữ lớn GPT-4 Turbo. Bản cập nhật mới nhất mở rộng khả năng của GPT-4 với bối cảnh mở rộng và cơ sở dữ liệu kiến thức được cập nhật.

Tác giả: Hương Trang Hương Trang
3149
Elon Musk ra mắt Grok, mô hình tạo văn bản AI mới
Elon Musk ra mắt Grok, mô hình tạo văn bản AI mới

Công ty của Elon Musk, xAI, đã chính thức ra mắt mô hình tạo văn bản AI mới mang tên Grok. Được mệnh danh là đối thủ của ChatGPT phổ biến, Grok được thiết kế để trở thành một mô hình ngôn ngữ mạnh mẽ và linh hoạt hơn.

Tác giả: Phương Linh Phương Linh
2705
Nvidia ra mắt ChipNeMo, một mô hình ngôn ngữ lớn chuyên biệt với 43 tỷ tham số nhằm tăng cường năng suất thiết kế chip
Nvidia ra mắt ChipNeMo, một mô hình ngôn ngữ lớn chuyên biệt với 43 tỷ tham số nhằm tăng cường năng suất thiết kế chip

Nvidia đã ra mắt ChipNeMo, một mô hình ngôn ngữ lớn chuyên biệt với 43 tỷ tham số nhằm tăng cường năng suất thiết kế chip. Công cụ này hứa hẹn sẽ đơn giản hóa nhiều khía cạnh của thiết kế chip bằng cách trả lời các câu hỏi, tóm tắt các báo cáo lỗi và tạo ra các tập lệnh cho các công cụ thiết kế điện tử tự động (EDA).

Tác giả: Minh Quân Minh Quân
2584
Công cụ TensorRT của NVIDIA tăng hiệu suất cho các tác vụ AI như Stable Diffusion và Llama 2
Công cụ TensorRT của NVIDIA tăng hiệu suất cho các tác vụ AI như Stable Diffusion và Llama 2

NVIDIA đã và đang nỗ lực cải tiến bộ công cụ AI/ML (trí tuệ nhân tạo/học máy) và LLM (mô hình ngôn ngữ lớn) của mình. Bổ sung mới nhất là TensorRT và TensorRT-LLM, được thiết kế để tối ưu hóa hiệu suất của GPU tiêu dùng và nhiều card đồ họa tốt nhất để chạy các tác vụ như Stable Diffusion và tạo văn bản Llama 2. Chúng tôi đã thử nghiệm một số GPU mới nhất của NVIDIA bằng TensorRT và nhận thấy hiệu suất trong Stable Diffusion được cải thiện tới 70%. TensorRT hiện có sẵn để tải xuống tại trang GitHub của NVIDIA, mặc dù chúng tôi đã có quyền truy cập sớm cho mục đích của cái nhìn ban đầu này.

Tác giả: Hương Trang Hương Trang
4717
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC
Nvidia tăng tốc phát triển GPU mới để duy trì vị thế dẫn đầu trong AI và HPC

Nvidia đang lên kế hoạch tăng tốc phát triển các kiến trúc GPU mới và quay trở lại chu kỳ giới thiệu sản phẩm một năm một lần để duy trì vị thế dẫn đầu trong lĩnh vực trí tuệ nhân tạo (AI) và phần cứng tính năng cao (HPC).

Tác giả: Mai Ngọc Mai Ngọc
2401
Microsoft nói rằng chip AI của NVIDIA vẫn là lựa chọn tốt nhất, nhưng AMD cũng có những lựa chọn hấp dẫn và nguồn cung tổng thể đang tốt hơn
Microsoft nói rằng chip AI của NVIDIA vẫn là lựa chọn tốt nhất, nhưng AMD cũng có những lựa chọn hấp dẫn và nguồn cung tổng thể đang tốt hơn

Microsoft cho biết chip AI của NVIDIA vẫn là lựa chọn tốt nhất, nhưng AMD cũng có những lựa chọn hấp dẫn và nguồn cung tổng thể đang tốt hơn.

Tác giả: Huy Hoàng Huy Hoàng
2376
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn
CEO của Lamini đùa cợt về tình trạng thiếu hụt GPU của Nvidia, tuyên bố phần mềm LLMs của công ty có thể chạy trên GPU AMD có sẵn

Sharon Zhou, CEO của Lamini, một công ty khởi nghiệp về mô hình ngôn ngữ lớn (LLM) trí tuệ nhân tạo (AI), đã đăng một video lên Twitter/X để chế giễu tình trạng thiếu hụt GPU của Nvidia đang diễn ra. Người đứng đầu Lamini hiện đang khá tự mãn, và điều này dường như là do phần lớn các LLM của công ty chạy độc quyền trên kiến trúc GPU AMD có sẵn. Hơn nữa, công ty tuyên bố rằng GPU AMD sử dụng ROCm đã đạt được "sự tương đương về phần mềm" với nền tảng Nvidia CUDA vốn thống trị trước đây.

Tác giả: Huy Hoàng Huy Hoàng
2603
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội
Nvidia tuyên bố Superchip Grace Hopper và GPU L4 cung cấp hiệu suất AI vượt trội

Nvidia hôm nay đã công bố rằng họ đã đệ trình kết quả điểm chuẩn đầu tiên cho Superchip CPU + GPU Grace Hopper và bộ tăng tốc GPU L4 của họ cho phiên bản mới nhất của MLPerf, một điểm chuẩn AI tiêu chuẩn công nghiệp được thiết kế để cung cấp một sân chơi bình đẳng để đo lường hiệu suất AI trong các tác vụ khác nhau.

Tác giả: Huy Hoàng Huy Hoàng
2681
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100
Nvidia TensorRT-LL tăng gấp đôi hiệu suất LLM trên GPU H100

Nvidia cho biết phần mềm mã nguồn mở TensorRT-LL mới của họ có thể tăng hiệu suất đáng kể của các mô hình ngôn ngữ lớn (LLM) trên GPU của họ. Theo công ty, khả năng của TensorRT-LL của Nvidia cho phép họ tăng hiệu suất của GPU H100 của họ lên hai lần trong LLM GPT-J với sáu tỷ tham số. Quan trọng là phần mềm có thể cho phép cải thiện hiệu suất này mà không cần đào tạo lại mô hình.

Tác giả: Huy Hoàng Huy Hoàng
2592
Huawei được cho là có GPU AI ngang tầm với NVIDIA A100 và sẽ có LLM cạnh tranh với GPT-4
Huawei được cho là có GPU AI ngang tầm với NVIDIA A100 và sẽ có LLM cạnh tranh với GPT-4

Tại Diễn đàn Doanh nhân Trung Quốc 2023, Liu Qingfeng, người sáng lập HKUST Xunfei (một công ty AI của Trung Quốc) đã tiết lộ rằng ông đã hợp tác với Huawei để tăng tốc AI.

Tác giả: Huy Hoàng Huy Hoàng
2503
Chọn trang